پس از آنکه گوگل وعده خود را مبنی بر عدم استفاده از هوش مصنوعی برای تسلیحات یا نظارت پس گرفت، برخی از کارمندان واکنشهای خود را در تابلوی اعلانات داخلی شرکت منتشر کردند.
این شرکت روز سهشنبه اعلام کرد که دستورالعملهای اخلاقی هوش مصنوعی خود را بهروزرسانی کرده است، که نحوه استفاده و عدم استفاده گوگل از فناوری خود را مشخص میکند. نسخه جدید، عبارتی را حذف کرد که در آن گوگل متعهد شده بود از هوش مصنوعی برای ساخت سلاح، ابزارهای نظارتی یا فناوریهایی که باعث آسیب کلی میشوند یا احتمالاً باعث آن میشوند استفاده نکند.
به گفته پستهایی که با بیزینس اینسایدر به اشتراک گذاشته شده است، چندین کارمند گوگل از این تغییر در تابلوی اعلانات داخلی شرکت، Memegen، ابراز ناامیدی کردند.
یک میم، ساندار پیچای، مدیر عامل شرکت را نشان میدهد که موتور جستجوی گوگل را برای چگونگی تبدیل شدن به پیمانکار تسلیحاتی جستجو میکند.
یکی دیگر از کارمندان، میم محبوبی از یک بازیگر را که به عنوان یک سرباز نازی در یک طرح کمدی تلویزیونی لباس پوشیده بود، تقلید کرد. در آن نوشته شده بود: گوگل ممنوعیت استفاده از هوش مصنوعی خود را برای سلاح و نظارت لغو میکند. آیا ما آدم بدهها هستیم؟
پست دیگری شلدون را از تئوری بیگ بنگ نشان میداد که میپرسد چرا گوگل خط قرمز خود را برای سلاح برمیدارد، گزارشهایی را درباره همکاری نزدیکتر گوگل با مشتریان دفاعی از جمله پنتاگون میبیند و پاسخ میدهد: آه، به همین دلیل است.
این سه میم در میان کارمندان در روز چهارشنبه بیشترین رای را به دست آوردند. با این حال، این موارد فقط توسط تعداد انگشت شماری از کارمندان گوگل به اشتراک گذاشته شد. این شرکت بیش از 180,000 کارمند دارد. این نظرات نشان دهنده کسری از نیروی کار است. برخی از گوگلرها ممکن است از همکاری نزدیکتر شرکتهای فناوری با مشتریان دفاعی و دولت ایالات متحده حمایت کنند.
در سالهای اخیر، تغییری در میان برخی از شرکتهای فناوری و استارتآپها به سمت ارائه بیشتر فناوری خود، از جمله ابزارهای هوش مصنوعی، برای اهداف دفاعی ایجاد شده است.
در حالی که گوگل مستقیماً حذف این عبارت را تایید نکرد، دیمیس هاسابیس، مدیرعامل گوگل دیپمایند، و جیمز مانییکا، معاون ارشد فناوری و جامعه، روز سهشنبه در یک پست وبلاگی چشمانداز ژئوپلیتیکی بهطور فزاینده پیچیده را توصیف کردند و گفتند که برای کسبوکارها و دولتها مهم است که در راستای منافع امنیت ملی با یکدیگر همکاری کنند.
آنها نوشتند: ما معتقدیم که دموکراسیها باید در توسعه هوش مصنوعی پیشرو باشند و از ارزشهای اصلی مانند آزادی، برابری و احترام به حقوق بشر هدایت شوند. و ما معتقدیم که شرکتها، دولتها و سازمانهایی که این ارزشها را به اشتراک میگذارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی را ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقا دهد و از امنیت ملی حمایت کند.
یک سخنگوی گوگل در پاسخ به درخواست برای اظهار نظر، BI را به پست وبلاگ روز سهشنبه این شرکت ارجاع داد.
در سال 2018، کارمندان گوگل به برنامهای با پنتاگون اعتراض کردند که از هوش مصنوعی گوگل برای جنگ استفاده میکرد. این شرکت قرارداد را لغو کرد و اصول هوش مصنوعی را مشخص کرد که شامل نمونههایی از مواردی بود که به دنبال آن نخواهد بود، و به طور صریح به سلاح و ابزارهای نظارتی اشاره کرد.
پست وبلاگی درباره اصول 2018 اکنون شامل لینکی در بالا است که کاربران را به دستورالعملهای بهروز شده هدایت میکند.
تصمیم گوگل برای ترسیم خطوط قرمز در اطراف تسلیحات، این شرکت را از معاملات نظامی که توسط غولهای فناوری دیگر، از جمله آمازون و مایکروسافت، امضا شده بود، دور کرد. از سال 2018، پیشرفتهای عظیمی در هوش مصنوعی حاصل شده است و ایالات متحده اکنون با چین و سایر کشورها برای برتری در این فناوری رقابت میکند.
آیا شما کارمند فعلی یا سابق گوگل هستید که اطلاعات بیشتری برای به اشتراک گذاشتن دارید؟ میتوانید از طریق برنامه پیامرسانی امن Signal (+1 628-228-1836) یا ایمیل امن (hlangley@protonmail.com) با این خبرنگار تماس بگیرید. ما میتوانیم شما را ناشناس نگه داریم.